Deepfake Total: Audiofakes gratis erkennen – inkl. Trainingsspiel

Screenshot von der Website https://deepfake-total.com/

Durch die fast beliebige Verwendung von Künstlicher Intelligenz wird die Kreativität angeregt und Videos, Bilder und auch Audiodateien neu kombiniert. Dabei achten manche Einzelpersonen oder auch Unternehmen nicht immer so genau auf die Rechte anderer Menschen. Beispielsweise kursieren im Netz Audiodateien von Prominenten, die das gar nicht gesagt haben.

Auch als Privatperson kann es sein, dass die eigene Stimme als Audiodatei in KI-generierten Audiofiles/Podcasts benutzt wird – ohne dass ich es möchte. Die Frage ist nun: Wie kann ich solche Audiofakes erkennen? Das Fraunhofer Institut hat dazu eine Plattform entwickelt:

“Die Plattform Deepfake Total entwickelte Nicolas Müller mit seinem Team als öffentliches Erkennungstool für Audiofakes. Jeder kann dort verdächtige Audiospuren hochladen und von einer KI analysieren lassen. Im Gegensatz zu anderen kommerziellen Erkennungstools auf dem Markt ist die Fraunhofer-Plattform kostenlos – und in Deutschland gehostet. Ihr KI-Modell trainieren die Forschenden sowohl mit öffentlichen als auch selbst erstellten Datensätzen, die Beispiele originaler und gefälschter Audiospuren enthalten” (Fraunhofer-Magazin 2/2025).

Was mir besonders gefällt ist der Ansatz, dass dieses Angebot transparent, kostenlos und in Deutschland gehostet ist. Ein Trainingsspiel – für Audio und Video – führt in die Thematik ein und soll dafür sorgen, dass man selbst anfängt eigene Dateien hochzuladen. Probieren Sie es doch einfach einmal aus.

“Analyze suspicious audio files to detect deepfakes, and automatically share them with the security community” (Text auf der Startseite der Plattform).

Multiprojektmanagement: Wie können Abhängigkeiten analysiert werden?

Ein Projekt zum Ziel zu führen ist manchmal schon schwierig, da es hier schon viele Abhängigkeiten der verschiedenen Schritte untereinander gibt. Ein Beispiel sind die Abhängigkeiten der einzelnen Arbeitspakete untereinander.

Auf der Programm oder Portfolioebene gibt es dann Abhängigkeiten zwischen einzelnen Projekten, Programmen und Projektportfolios, was das Multiprojektmanagement durchaus verkomplizieren kann. Es macht daher Sinn, Werkzeuge zur Identifizierung von Abhängigkeiten im Projektsystem der Organisation zu kennen. Im DIN Taschenbuch 472 aus dem Jahr 2025 findet sich dazu folgender Hinweis:

WerkzeugeCharakterisierung/ Beschreibung
PaarvergleichBeim Paarvergleich werden jeweils zwei PPP auf ihre Abhängigkeiten untereinander untersucht. Dabei werden verschiedene Kriterien (z.B. Risiken, Ziele und Ressourcen) einzeln untersucht.
BeeinflussungsmatrixEine Abhängigkeit kann auf PPP keinen sowie unterschiedlich starke positive oder negative Wirkungen haben. Beispiel: Projekt A kann einen Einfluss auf B, aber B keinen Einfluss auf A haben.
KorrelationsanalyseMit der Korrelationsmatrix kann man den Grad des linearen Zusammenhanges zwischen den PPP bezüglich verschiedener Kriterien ( z.B. Termine, Ziele, Ressourcen) berechnen.
Werkzeuge zur Identifizierung von Abhängigkeiten, DIN Taschenbuch 472 (2025). PPP: Projekte, Programme und Projektportfolios

Schauen Sie sich doch dazu auch meine verschiedenen Beiträge zum Multiprojektmanagement an.

Künstliche Intelligenz: Das Modell GRANITE in unsere LocalAI eingebunden

Screenshot von unserer LocalAI-Installation: Selected Model Granite 3.0

In dem Beitrag Künstliche Intelligenz: Würden Sie aus diesem Glas trinken? ging es um die Frage, ob man KI-Modellen vertrauen kann. Bei den Closed Source Models der Tech-Konzerne ist das kaum möglich, da die Modelle gar nicht, bzw. kaum transparent sind und nicht der Definition von Open Source AI entsprechen.

Wenn aber der erste Schritt zur Nutzung von Künstlicher Intelligenz Vertrauen sein sollte (Thomas et al. 2025), sollte man sich als Privatperson, als Organisation, bzw. als Verwaltung nach Alternativen umsehen.

Wie Sie als Leser unseres Blogs wissen, tendieren wir zu (wirklichen) Open Source AI Modellen, doch in dem Buch von Thomas et al. (2025) ist mir auch der Hinweis auf das von IBM veröffentlichte KI-Modell Granite aufgefallen. Die quelloffene Modell-Familie kann über Hugging Face, Watsonx.ai oder auch Ollama genutzt werden.

Das hat mich neugierig gemacht, da wir ja in unserer LocalAI Modelle dieser Art einbinden und testen können. Weiterhin haben wir ja auch Ollama auf unserem Server installiert, um mit Langflow KI-Agenten zu erstellen und zu testen.

Im Fokus der Granite-Modellreihe stehen Unternehmensanwendungen, wobei die kompakte Struktur der Granite-Modelle zu einer erhöhten Effizienz beitragen soll. Unternehmen können das jeweilige Modell auch anpassen, da alles über eine Apache 2.0-Lizenz zur Verfügung gestellt wird.

Wie Sie der Abbildung entnehmen können, haben wir Granite 3.0 -1b-a400m in unsere lokale KI (LocalAI) eingebunden. Das geht relativ einfach: Wir wählen aus den aktuell mehr als 1.000 Modellen das gewünschte Modell zunächst aus. Anschließend brauchen wir nur auf “Installieren” zu klicken, und das Modell steht in der Auswahl “Select a model” zur Verfügung.

Im unteren Fenster (Send a message) habe ich testweise “Stakeholder for the project Website” eingegeben. Dieser Text erscheint dann blau hinterlegt, und nach einer kurzen Zeit kommen dann schon die Ergebnisse, die in der Abbildung grün hinterlegt sind. Wie Sie am Balken am rechten Rand der Grafik sehen können, gibt es noch mehrere Stakeholder, die man sieht, wenn man nach unten scrollt.

Ich bin zwar gegenüber Granite etwas skeptisch, da es von IBM propagiert wird, und möglicherweise eher zu den Open Weighted Models zählt, doch scheint es interessant zu sein, wie sich Granite im Vergleich zu anderen Modellen auf unserer LocalAI-Installation schlägt.

Bei allen Tests, die wir mit den hinterlegten Modellen durchführen, bleiben die generierten Daten alle auf unserem Server.

KI und Arbeitsmarkt: Interessante Erkenntnisse aus einer aktuellen, belastbaren wissenschaftlichen Studie

Wenn es darum geht, die Auswirkungen der Künstlichen Intelligenz auf den Arbeitsmarkt zu prognostizieren, kommt es – wie immer – darauf an, wen man fragt.

Die eher technikorientierten Unternehmen verkaufen die angestrebte AGI (Artificial General Intelligence) als das non plus ultra der Intelligenzentwicklung. Dabei prognostizieren diese Unternehmen, dass AGI den menschlichen Fähigkeiten (Intelligenzen) überlegen sein wird. Daraus folgt zwingend, dass KI wohl alle arbeitsbezogenen Tätigkeiten in der nahen Zukunft übernehmen kann. Diese Argumentation erinnert mich an so viele Versprechen der Technik-Unternehmen; beispielsweise an die Unsinkbarkeit der Titanic oder die “100%-ige” Sicherheit von Kernkraftwerken, oder an die Verheißungen der Internetpioniere. Technologie muss wohl in dieser Form verkauft werden (Storytelling) – immerhin geht es ja um Investoren und sehr viel Geld. Ich weiß natürlich, dass diese Vergleiche “hinken”, dennoch …

Betrachten wir Künstliche Intelligenz mit seinen Möglichkeiten aus der eher gesamtgesellschaftlichen Perspektive, so sieht das etwas anders aus. Hier geht es darum, mit Hilfe der Künstlichen Intelligenz gesellschaftliche Probleme zu lösen, zum Wohle aller. Die Idee der japanischen Society 5.0 kommt diesem Anspruch sehr nahe. Da ich darüber schon verschiedene Blogbeiträge veröffentlich habe, gehe ich darauf nicht weiter ein. Siehe dazu beispielhaft Worin unterscheiden sich Industry 5.0 und Society 5.0?

Wie ist es dennoch möglich herauszufinden, wie sich Künstliche Intelligenz auf dem Arbeitsmarkt bemerkbar macht, bzw. machen wird?

Als Leser unseres Blogs wissen Sie, dass ich bei solchen Fragestellungen immer dazu tendiere, belastbare wissenschaftliche Studien von unabhängigen Forschern heranzuziehen. Eine dieser Studie ist folgende. Darin sind sehr ausführlich Vorgehensweise, Datenanalysen und Erkenntnisse dargestellt, mit einer zu beachtenden Einschränkung: Es geht um den amerikanischen Arbeitsmarkt.

“First, we find substantial declines in employment for early-career workers in occupations most exposed to AI, such as software development and customer support.

Second, we show that economy-wide employment continues to grow, but employment growth for young workers has been stagnant.

Third, entry-level employment has declined in applications of AI that automate work, with muted effects for those that augment it.

Fourth, these employment declines remain after conditioning on firm-time effects, with a 13% relative employment decline for young workers in the most exposed occupations

Fifth, these labor market adjustments are more visible in employment than in compensation.

Sixth, we find that these patterns hold in occupations unaffected by remote work and across various alternative sample constructions”

Source: Brynjolfsson et al. (2025): Canaries in the Coal Mine? Six Facts about the Recent Employment Effects of Artificial Intelligence | PDF

Herausheben möchte ich hier, dass gerade junge Menschen, die in den Arbeitsmarkt kommen und noch keine domänenspezifische Expertise entwickeln konnten, von Künstlicher Intelligenz betroffen sind. Das ist in mehrerer Hinsicht bemerkenswert.

Einerseits scheint Expertise nicht so leicht durch KI ersetzbar zu sein, was wiederum für erfahrene, auch ältere Mitarbeiter spricht. Diese sollten natürlich Künstliche Intelligenz nutzen und nicht ablehnen.

Weiterhin sind es ja gerade junge Menschen, die in ihren Jobs mit Digitalisierung und auch mit Künstlicher Intelligenz arbeiten möchten. Die Innovation “Künstliche Intelligenz” kann anhand der genannten Effekte durchaus als reflexiv angesehen werden. Siehe dazu auch  Freund, R.; Chatzopoulos, C.; Lalic, D. (2011): Reflexive Open Innovation in Central Europe.

Digitale Souveränität: Whiteboard mit dem Nextcloud KI-Assistenten nutzen

Auf das in Nextcloud integrierte Whiteboard hatte ich in dem Beitrag Nextcloud Hub 9 Open Source: Whiteboard kollaborativ bearbeiten. Ein weiterer Schritt zu einem souveränen Arbeitsplatz hingewiesen.

Wenn man also in Nextcloud eine Datei öffnen möchte, hat man die Optionen “Neue Tabelle” (wie Excel), “Neue Textdatei” (wie Word), “Neue Präsentation” (wie Power Point), “Neues Diagramm” und eben ein “Neues Whiteboard” zu erstellen. Es ist praktisch, dass diese Möglichkeit direkt integriert ist.

Das Whiteboard selbst basiert auf dem von mir schon 2022 vorgestellten tldraw, das mir damals schon wegen seiner Einfachheit und Kompaktheit gefallen hat. Jetzt ist es also in Nextcloud eingebunden worden. Es gibt zu dem Whiteboard eine Bibliothek, in der man alle selbst erstellten Vorlagen hinterlegen, oder auch im Netz verfügbare Vorlagen einbinden kann. Natürlich gibt es nicht so viele frei verfügbare Vorlagen wie bei Miro oder Mural, doch hat das in Nextcloud integrierte Whiteboard die Vorteile, dass es in einer umfangreichen Kollaborationsplattform integriert und Open Source basiert ist, und alle Daten auf dem eigenen Server laufen.

Es gibt neben den von anderen Whiteboards bekannten Funktionen, in der Zwischenzeit auch einen Botton, um den Nextcloud KI-Assistenten mit in das Whiteboard einzubinden. In der Abbildung habe ich den Botton rot hervorgehoben.

Das in dem Assistenten hinterlegte KI-Modell können wir selbst festlegen, da wir die Modelle in unserer LocalAI vorliegen haben. Somit laufen alle Anwendungen auf unseren Servern und alle Daten bleiben auch bei uns. Ganz im Sinne der Reduzierung der oftmals noch vorherrschenden Digitalen Abhängigkeit von den den etablierten Anwendungen meist amerikanischer Tech-Konzerne.

Weg von der Digitalen Abhängigkeit und hin zu einer Digitalen Souveränität.

LangFlow: Per Drag & Drop KI-Agenten auf dem eigenen Server entwickeln und testen

Screenshot von unserer LangFlow-Installation (Simple Agent)

In dem Beitrag Künstliche Intelligenz: Mit einem AI Router verschiedene Modelle kombinieren wird erläutert, wie Modelle – abhängig von der Eingabe – so kombiniert werden können, dass ein qualitativ gutes Ergebnis herauskommt.

Der nächste Schritt wäre, beliebig viele KI-Modelle in einem Framework zu entwickeln und zu koordinieren. Die Plattform LangChain bietet so eine professionelle, und somit auch anspruchswolle Möglichkeit.

“LangChain is an incredibly valuable tool for linking up chains of models and defining steps for how an output from a model should be handled before being sent to a different model (or often, the same model with a different prompt) for a new step in a workflow” (Thomas et al. 2025).

Wenn es etwas einfacher sein soll, bietet sich LangFlow an, bei dem mit einfachen Mitteln per Drag & Drop KI-Agenten in Zusammenspiel mit verschiedenen Modellen konfiguriert werden können.

Wir haben LangFlow auf unserem Server installiert (Open Source) und können nun KI-Agenten für verschiedene Anwendungen entwickeln und testen. Die Abbildung zeigt einen Screenshot der Startseite, wenn man einen einfachen Agenten entwickeln möchte. Auf der linken Seite können sehr viele Optionen ausgewählt werden, in dem grau hinterlegten Bereich werden diese dann per Drag & Drop zusammengestellt. Die farbigen Verbindungslinien zeigen, welche Optionen miteinander kombiniert werden können. Abschließend kann im anwählbaren Playground das Ergebnis beurteilt werden.

Dabei bietet LangfFlow auch die Möglichkeit, eigene Daten, oder auch externe Datenquellen einzubinden – alles per Drag & Drop. Weiterhin haben wir den Vorteil, dass alle generierten Daten auf unserem Server bleiben.

Künstliche Intelligenz, Wissen und kritisches Denken

Der Wissensbegriff hat sich in den letzten Jahrzehnten verändert, und damit auch erweitert. Arnold hat beispielsweise von einem neuen Wissensbegriff gesprochen und plädiert für eine Art von Wissenskompetenz.

Mit den Möglichkeiten der Künstlichen Intelligenz wird der Umgang mit Wissen noch dynamischer – vormals eher personales Wissen wird immer mehr zu einem öffentlichen Wissen. Dabei ist bemerkenswert, dass die Menschen den Ergebnissen der KI-Modellen durchaus vertrauen, obwohl diese nachweislich fehlerhaft sind. Siehe dazu Künstliche Intelligenz: Halluzinationen und der Bullshit-Faktor – eine Art Künstliche Dummheit? Dieses sehr unkritische Verhalten führt zu einer Entwertung des personalen Wissens

“Menschen ziehen sich infolge von KI zunehmend aus der Generierung personalen Wissens zurück und begnügen sich mit der Überwachung und Validierung KI-generierten öffentlichen Wissens. Der Einsatz von KI und ein übermäßiges Vertrauen in die Qualität KI generierter Inhalte reduzieren zudem die Bereitschaft zum kritischen Denken. Mit wachsendem Vertrauen in KI verschlechtert sich kritisches Denken, während Zuversicht in Bezug auf die eigene Expertise kritisches Denken stärkt” (Reinmann, Preprint. Erscheint in: Dittler, U. & Kreidl, C. (in Druck). Fragen an die Hochschuldidaktik der Zukunft. Schäffer-Poeschel).

Die stärkere Nutzung der KI-Möglichkeiten führt also letztendlich zur Reduzierung des kritischen Denkens, wobei das Vertrauen in die eigene Expertise eher das kritische Denken fördert.

Wir sollten daher nicht “blind” den Verheißungen der Tech-Industrie hinterherrennen, sondern auf Basis unserer eigenen Expertise durchaus kritisch mit den Ergebnissen der KI umgehen. Siehe dazu beispielsweise Kritisches Denken genauer betrachtet. Darin werden u.a. die affirmative (bestätigende) Wissenskonstruktion und das kritische Denken gegenübergestellt.

Digitale Souveränität: Videokonferenzen mit Nextcloud Talk – Open Source, und die Daten bleiben auf dem eigenen Server

Eigener Screenshot: Videokonferenz mit Nextcloud Talk auf unserem Server

Heute hatte ich eine Videokonferenz mit Kollegen aus verschiedenen Ländern. Dabei haben wir statt Zoom oder MS Teams bewusst Nextcloud Talk genutzt, das Bestandteil der Nextcloud-Installation auf unseren Servern ist. Nextcloud ist Open Source und führt zu einer Digitalen Souveränität – auch bei Videokonferenzen. Die Daten bleiben dabei alle auf unseren Servern.

Inhaltlich ging es bei der Videokonferenz um die nächste MCP-Konferenz, die im September 2026 stattfinden soll – die Vorfreude ist bei mir schon jetzt vorhanden. Siehe dazu auch die Konferenz-Website oder unsere Übersichtsseite zu Konferenzen.

Die Abbildung zeigt einen Screenshot zu dem Zeitpunkt, an dem ich eine Videokonferenz (Anruf) in Nextcloud Talk gestartet habe. Den Link zu dem Raum habe ich dann an die Teilnehmer gesandt, die keine weitere Installationen benötigen, um teilzunehmen. Natürlich können auch Videokonferenzen terminiert, und dazu eingeladen werden. Wie dem Screenshot zu entnehmen ist, sind die aus anderen Videokonferenz-Tools bekannten Aktivitäten integriert – ich möchte diese daher hier nicht mehr ausführlich erläutern.

Nextcloud Talk ist dabei in eine komplette Kollaborationsplattform (inkl. Open Project, Deck als Board, Cloud als Datenspeicher, kollaboratives Arbeiten an Dateien, Whiteboard usw. usw.) integriert, die einen souveränen Arbeitsplatz unterstützt – alles Open Source, und die Daten bleiben auf dem eigenen Server.

Darüber hinaus haben wir auch LocalAI integriert, und die Möglichkeit geschaffen, KI-Agenten zu entwickeln und zu nutzen – alles Open Source, alle Daten bleiben auf unseren Servern.

(Mass) Personalized AI Agents für dezentralisierte KI-Modelle

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

Es wird von Tag zu Tag deutlicher: Mit der zunehmenden Verbreitung von Künstlicher Intelligenz (AI: Artificial Intelligence) kommen die zentralen, großen KI-Modelle (Large Language Models) mit ihrem Mangel an Transparenz und ihrem “laxen” Umgang mit dem Urheberrecht oder auch mit dem Datenschutz, an Grenzen.

Einzelne Personen, Organisationen und auch Öffentliche Verwaltungen halten ihre Daten entsprechend zurück, wodurch Kooperation, Kollaboration und letztendlich auch Innovation behindert wird. Der Trend von den LLM (Large Language Models), zu Small Language Models (SLM), zu KI-Agenten, zusammen mit dem Wunsch vieler auch die eigenen Daten – und damit die eigene Expertise – für KI-Anwendungen zu nutzen, führt zu immer individuelleren, customized, personalized Modellen und letztendlich zu Personalized AI-Agents.

“Personal agents: Recent progress in foundation models is enabling personalized AI agents (assistants, co-pilots, etc.). These agents require secure access to private user data, and a comprehensive understanding of preferences. Scaling such a system to population levels requires orchestrating billions of agents. A decentralized framework is needed to achieve this without creating a surveillance state” (Singh et al. 2024).

Forscher am Massachusetts Institute of Technology (MIT) haben diese Entwicklungen systematisch analysiert und sind zu dem Schluss gekommen, dass es erforderlich ist, Künstliche Intelligenz zu dezentralisieren: Decentralized AI.

Mein Wunsch wäre es in dem Zusammenhang, dass alle Anwendungen (Apps, Tools etc.) einzelnen Personen und Organisationen als Open Source zur Verfügung stehen, ganz im Sinne von Mass Personalization – nur dass Mass Personalization für KI-Agenten nicht von Unternehmen ausgeht und auf den Konsumenten ausgerichtet ist! Das hätte eine sehr starke Dynamik von Innovationen zur Folge, die Bottom Up erfolgen und die Bedürfnisse der Menschen stärker berücksichtigen.

Digitale Innovationen und organisationale Ambidextrie

Image by fancycrave1 from Pixabay

In Organisationen kommt es immer wieder zu der Frage, ob Routineprozesse (Exploration) oder eher Innovationen (Exploitation) in den Fokus organisationaler Entwicklung stehen sollten. In der Zwischenzeit wird deutlich, dass beides in einer Organisation wechselseitig bewältig und entwickelt werden sollten. Diese Ambidextrie hatte ich schon einmal in dem Blogbeitrag Ambidextres Innovationsmanagement: Zwischen Exploration und Exploitation erläutert.

Es stellt sich natürlich gleich die Frage, wie eine geeignete Strategie gerade für Digitale Innovationen aussehen kann. Forscher vom Fraunhofer Institut Stuttgart und der Universität Stuttgart sind der Frage anhand von Literaturrecherchen und Interviews nachgegangen und haben ihre Erkenntnisse veröffentlicht:

Schrader et al. (2025): Organizing digital innovations. Journal of Open Innovation: Technology, Market, and Complexity 11 (2025) | Link

Ein Ergebnis war, dass organisationale Ambidextrie eine wichtige Voraussetzung für Digitale Innovationen darstellt. Weiterhin haben die Forscher in ihrem Paper ein Framework dargestellt, das einer Organisation hilft, die geeignete Strategie auszuwählen und umzusetzen.

Ergänzend sollte noch erwähnt sein, dass organisationale Ambidextrie auch sehr viel von den Menschen einfordert. Es ist nicht leicht, permanent zwischen den “beiden Welten” zu pendeln.